随着卷积神经网络(CNN)在物体识别方面变得更加准确,它们的表示与灵长类动物的视觉系统越来越相似。这一发现激发了我们和其他研究人员询问该含义是否也以另一种方式运行:如果CNN表示更像大脑,网络会变得更加准确吗?以前解决这个问题的尝试显示出非常适中的准确性,部分原因是正则化方法的局限性。为了克服这些局限性,我们开发了一种新的CNN神经数据正常化程序,该数据正常化程序使用深层规范相关分析(DCCA)来优化CNN图像表示与猴子视觉皮层的相似之处。使用这种新的神经数据正常化程序,与先前的最新神经数据正则化器相比,我们看到分类准确性和少级精度的性能提高得多。这些网络对对抗性攻击也比未注册的攻击更强大。这些结果共同证实,神经数据正则化可以提高CNN的性能,并引入了一种获得更大性能提升的新方法。
translated by 谷歌翻译
最近的研究表明,与哺乳动物视觉皮层的光谱特性相匹配的人工神经网络(ANN) - 即,神经活动的协方差矩阵的$ \ sim 1/n $特征 - 实现更高的对象识别性能和稳健性的性能对抗攻击比没有的攻击。然而,据我们所知,以前的工作没有系统地探讨修改ANN光谱属性如何影响性能。为了填补这一空白,我们对频谱正规化程序进行了系统的搜索,迫使Ann的特征范围遵循$ 1/n^\ alpha $ power Laws Laws,带有不同的指数$ \ alpha $。我们发现,较大的力量(大约2--3)可以提高验证精度,并对对浓缩网络的对抗性攻击具有更大的鲁棒性。这个令人惊讶的发现适用于浅网和深网,它推翻了这样的观念,即脑状光谱(对应于$ \ alpha \ sim 1 $)始终优化ANN性能和/或稳健性。对于卷积网络,最佳$ \ alpha $值取决于任务复杂性和评估度量:较低$ \ alpha $值优化验证精度和对对抗性攻击的稳健性,用于执行简单对象识别任务的网络(对手稿数字的MNIST图像进行分类) ;对于更复杂的任务(对CIFAR-10自然图像进行分类),我们发现较低的$ \ alpha $值优化验证精度,而较高的$ \ alpha $值优化的对抗性稳健性。这些结果具有两个主要含义。首先,他们对脑般的光谱属性($ \ alpha \ sim 1 $)\ emph {始终}优化ANN性能的观念提出了怀疑。其次,它们证明了微调光谱正规化器优化所选设计度量的潜力,即准确性和/或鲁棒性。
translated by 谷歌翻译
本文提供了在过去十年中开发糖尿病足溃疡数据集的概念基础和程序,有一个时间线来证明进步。我们对脚踏照片的数据捕获方法进行了调查,概述了开发私立和公共数据集的研究,相关的计算机视觉任务(检测,分割和分类),糖尿病足溃疡挑战和未来发展的发展方向数据集。我们通过国家和年度报告数据集用户的分发。我们的目标是分享我们与DataSet开发的良好做法遇到的技术挑战,并为其他研究人员提供参与该域中的数据共享的动机。
translated by 谷歌翻译
糖尿病足溃疡分类系统使用伤口感染(伤口内的细菌)和缺血(限制血供给)作为重要的临床指标治疗和预测伤口愈合。研究使用自动化计算机化方法在糖尿病足伤中使用自动化计算机化方法的使用和缺血的使用是有限的,这是有限的,因为存在的公开可用数据集和严重数据不平衡存在。糖尿病脚溃疡挑战2021提供了一种具有更大量数据集的参与者,其总共包括15,683只糖尿病足溃疡贴剂,用于训练5,734,用于测试,额外的3,994个未标记的贴片,以促进半监督和弱的发展 - 监督深度学习技巧。本文提供了对糖尿病足溃疡攻击2021中使用的方法的评估,并总结了从每个网络获得的结果。最佳性能的网络是前3种型号的结果的集合,宏观平均F1分数为0.6307。
translated by 谷歌翻译
The BERT family of neural language models have become highly popular due to their ability to provide sequences of text with rich context-sensitive token encodings which are able to generalise well to many NLP tasks. We introduce gaBERT, a monolingual BERT model for the Irish language. We compare our gaBERT model to multilingual BERT and the monolingual Irish WikiBERT, and we show that gaBERT provides better representations for a downstream parsing task. We also show how different filtering criteria, vocabulary size and the choice of subword tokenisation model affect downstream performance. We compare the results of fine-tuning a gaBERT model with an mBERT model for the task of identifying verbal multiword expressions, and show that the fine-tuned gaBERT model also performs better at this task. We release gaBERT and related code to the community.
translated by 谷歌翻译